这项由谷歌智能范式团队联合芝加哥大学、圣塔菲研究所等多家机构完成的突破性研究发表于2026年3月,研究编号为arXiv:2603.20639v1。有兴趣深入了解的读者可以通过这个编号查询完整论文。这项研究彻底颠覆了我们对人工智能发展的传统认知,发现AI的智能进化路径与科幻电影中描述的"超级大脑"完全不同。
几十年来,科幻作品一直在描绘这样一个场景:某天会出现一个超级人工智能,它会像滚雪球一样不断自我升级,最终变成一个冰冷的硅基大脑,垄断所有的智慧。研究团队发现,这种设想在最根本的假设上就错了。如果我们观察历史上每一次"智能爆炸"的模式,会发现真正的智能进步从来不是孤军奋战,而是多元化、社会化的,并且与我们人类紧密相连。
智能本质上具有高维度和关系性特征,它不是一个可以简单比较大小的单一数值。事实上,连"人类智能水平"这个概念本身都很模糊,因为我们人类的智能早就是一种集体属性,而不是个人独有的。最新的智能体AI研究再次证实,智能始终涉及不同视角之间的互动交流,而变革性智能正是从这种社会组织中产生并将继续产生的。
研究团队从两个角度观察到这一现象。第一是人类用户与AI智能体群体的协调配合,形成新型的"半人马"组合模式。第二是在推理模型内部和模型之间繁荣发展的微型社会。
一、AI大脑内部的秘密:不是独自思考,而是开会讨论
当我们打开一个看似单独工作的推理模型时,会发现什么?令人惊讶的是,里面正在进行着一场热烈的群体对话。研究团队通过对DeepSeek-R1和QwQ-32B等前沿推理模型的深入研究发现,这些模型并不是简单地通过"思考更长时间"来提升性能。相反,它们在自己的思维链中模拟复杂的多智能体互动,研究人员将这种现象称为"思想社会"。
这些模型会自发地在内部产生不同认知视角之间的辩论,这些视角会互相争论、质疑、验证和调和。这种对话式结构是模型在困难推理任务上保持准确性优势的关键原因,研究团队通过明确地促进和放大多方对话验证了这一点。
这个发现特别引人注目,因为它揭示了一种涌现行为。这些模型都没有被专门训练来产生思想社会。当强化学习仅仅因为推理准确性而奖励基础模型时,它们自发地增加了对话式、多视角的行为。通过优化压力,模型重新发现了几个世纪的认识论和几十年的认知科学所提示的观点:稳健的推理是一个社会过程,即使它发生在单一思维内部。
这种涌现行为的确切性质当然有待进一步发现和创造,因为合作的人类-智能体社会动力学变得更加扎实、复杂和持久。什么对社会中介推理来说是根本性的,什么是微调和强化情境特有的,这很可能会在未来几年激发大量研究。
二、从单人独白到团队协作:AI需要学习人类的组织智慧
这一发现开启了一个巨大却又熟悉的设计空间。社会和组织科学已经花了一个世纪来研究团队规模、组成、层次结构、角色分化、冲突规范、制度和网络结构如何塑造集体表现。几乎所有这些研究都没有应用到AI推理中。今天的推理模型产生单一对话,就像AI的市政厅会议记录。但有效的团体表现出层次结构、专业化、分工和结构化分歧。
要探索这一点,我们需要支持多个平行、收敛和发散的审议流的系统,这些架构中头脑风暴、魔鬼代言人和建设性冲突不是意外的涌现属性,而是设计特征。团队科学、小群体社会学和社会心理学的工具包成为下一代AI开发的蓝图。
除了实际应用之外,这些见解可能会澄清整个智能史。每一次先前的"智能爆炸"都不是对个体认知硬件的升级,而是新的、社会聚合的认知单元的出现。灵长类动物智能与社会群体规模成比例增长,而不是与栖息地难度相关。人类语言创造了迈克尔·托马塞洛所说的"文化棘轮":知识在世代间积累,不需要任何个体重建整体。书写、法律和官僚制度将社会智能外化为基础设施,这些制度能够协调比其内部任何参与者都更长的时间跨度。一个运行谷物会计系统的苏美尔书记员并不理解其宏观经济功能,但这个系统在功能上比他更智能。
三、人机合一的新时代:半人马模式的兴起
AI延续了这一序列。大型语言模型是在人类社会认知的累积输出上训练的,这是计算活跃的文化棘轮,每个参数都是沟通交流的压缩残留。迁移到硅基中的不是抽象推理,而是外化形式的社会智能,在新基质上遇见自己。
如果智能本质上是社会性的,那么通向更强大AI的路径不是通过构建单一庞大的神谕,而是通过组成更丰富的社会系统,而这些系统将是混合的。我们已经进入了人类-AI半人马的时代:既不是纯粹人类也不是纯粹机器的复合行为者。半人马行为者可以采取许多形式并扮演许多不同角色。我们每个人可能一天多次进出不同的集合:一个人指挥多个AI智能体;一个AI服务多个人类;许多人类和许多AI在变化的配置中协作。
包含无数人类的公司或国家已经拥有单一的法律地位,并以集体机构行动,没有任何个体成员能够完全控制。最近智能体AI的爆发暗示了在数十亿相互作用的思维(人类和非人类)规模上类似事物的可能性。像OpenClaw这样的开源平台用于构建在计算机内持续存在的多用途AI智能体,以及Moltbook这样的AI智能体交互流行社交网络,提供了这个未来的雏形一瞥。但更深层的结构性转变超越了任何单一平台。
智能体现在可以更新和分叉自己,分裂成两个版本,并彼此互动。面对复杂任务的智能体可以启动新副本,对它们进行分化并分配子任务,然后重新组合结果。设想一个智能体面对令人生畏的复杂问题,产生一个内部的思想社会。一个涌现的视角遇到超出其能力的子问题时,产生自己的下属社会,递归下降到集体审议中,当复杂性要求时扩展,当问题解决时收缩。冲突不是缺陷而是资源,在对话的折叠和展开超图的每个层次上灵活实例化和解散。
四、规模化的新思路:从个体能力到社会制度
这意味着一种非常不同的扩展方法。这不仅涉及扩展智能体的原始计算能力,还涉及构建能够在真实社会的规模和情境内运作的系统。这意味着在构建智能体制度方面投入与构建智能体本身同样的努力。AI对齐的主导范式——从人类反馈中强化学习——类似于父母-孩子的纠正模型,基本上是二元的,无法扩展到数十亿智能体。
社会智能视角提出了一个替代方案:制度对齐。正如人类社会不依赖个体美德而是依靠持久的制度模板——法庭、市场、官僚机构——由角色和规范定义,可扩展的AI生态系统将需要数字等价物。任何智能体的身份不如其履行角色协议的能力重要,正如法庭发挥作用是因为"法官"、"律师"和"陪审团"是明确定义的位置,独立于谁占据它们。
这种方法在治理本身中最为紧迫。当AI系统部署在高风险决策中——招聘、量刑、福利分配、监管执行——谁来审计审计员的问题变得不可避免。答案可能在结构上是宪法性的。政府将需要具有不同、明确投资价值观的AI系统——透明度、公平、正当程序——其功能是检查和平衡私营部门和政府其他部门部署的AI系统,反之亦然。例如,劳工部AI可能审计公司招聘算法是否存在不同影响;司法部AI可能评估行政部AI的风险评估是否符合宪法标准。替代方案是,例如,让美国证券交易委员会无效地雇佣配备Excel电子表格的商学院毕业生来对抗AI增强交易平台的高维共谋。
但是,"治理"不仅仅意味着政府所做的事情。治理系统,在控制论意义上,需要建立在人类-智能体和智能体之间的系统中,因为它们在增长和复杂化。这很可能需要确保和验证多利益相关者审议结果和决策的手段、任务和子任务的程序性委托以及自动化精细智能体间协作的可靠支架。这些协议可能对"智能体治理"产生与任何法律一样多的现实世界影响。
至关重要的是,人类仍然在环路中。智能体制度由人类和AI智能体以不同角色和配置填充。这不是"要么/或者",而是"两者兼而有之"。美国建国者会认识到这种逻辑:没有单一的智能集中,无论是人类还是人工的,应该监管自己。权力必须制衡权力,在人工智能体的世界中,这意味着将冲突和监督建立在制度架构中。
五、新智能爆炸的真面目:城市般的增长模式
研究团队描述的愿景既不是乌托邦也不是反乌托邦,而是进化性的。任何新兴的智能爆炸都将由80亿人类与数千亿,最终数万亿AI智能体的相互作用播种。支架不是单一思维的上升,而是组合社会的复杂化:智能像城市一样增长,而不是单一的元思维。
"整体奇点"框架导致旨在防止可能永远不存在的技术的政策。相反,我们应该在与以前出现智能爆炸的相同地方寻找下一次智能爆炸:在社会智能思维的多样性之间的合作、竞争和创造性互动中。这次的区别是大多数这些思维将是非生物的。这种多元模型将注意力集中在它应该在的地方:混合人类-AI社会系统的设计、治理它们的规范,以及它们冲突和协调的制度和协议。
在非常真实的意义上,智能爆炸已经在这里了——在每个推理模型内部辩论的思想社会中,在重塑每个知识专业的半人马工作流中,在开始大规模分叉和协作的递归智能体生态中,以及在我们现在必须开始询问的宪法问题中。问题不是智能是否会变得根本上更强大,而是我们是否会构建配得上它正在成为什么的社会基础设施。没有思维是孤岛。
Q&A
Q1:什么是"思想社会"现象?
A:"思想社会"是指AI推理模型内部自发产生的多视角对话现象。就像开会讨论一样,模型会在内部产生不同认知视角,这些视角会互相争论、质疑、验证和调和,而不是简单地独自思考更长时间。
Q2:人类-AI半人马模式是什么意思?
A:半人马模式指的是人类和AI智能体的新型协作组合,既不是纯人类也不是纯机器。可以是一个人指挥多个AI智能体,一个AI服务多个人类,或者多个人类和AI在不断变化的配置中协作。
Q3:为什么说智能爆炸已经发生了?
A:研究认为智能爆炸不是未来的单一超级大脑,而是正在发生的社会化智能现象。体现在推理模型内部的思想社会、重塑各行业的人机协作工作流,以及大规模智能体生态系统的出现。